SERO对大型网站如何建立SEO体系看法:
觉得应该先把流量靠谱点的统计出来。。。
大型网站多用Google Analytics,但流量多了,分析的时候时间跨度一拉长,采样率动辄不到0.1%,这数据坑爹吧。。。总体趋势有时都不准,不用提细分筛选了,老是惨不忍睹。
有时看到流量变了,不是自身问题也不是百度问题,喵的是统计误差。。。
从日志里面,把爬虫和SEO访客剥出来,构建一个简单的平台供分析数据。系统么先保证能看日期趋势,我承认我开发的主要动力就是坑爹的报表系统只能龟速查看当天的,想看一个月变化得导差不多30次数据,估计半小时能搞定,尽管GA半分钟。
另外正则筛选URL神马的也是必须的,个人认为这是GA这样的统计工具,和国内常见统计玩具最大的区别之处。
流量若能准确细分,那么SEO效果就能一定程度衡量,不至于走感觉流。其它的辅助项么可以相对滞后点。
辅助项比如,各类页面的抓取细分、页面加载速度细分、收录比率细分、总体排名细分等等。如果想能较准确把控流量的话,还有许多可做。
国平说的:SEO流量 = 收录 * 排名 * 点击率 实际不具实用性。
对于很多类型的网站而言,相关关键词的检索量季节性差异较明显,往往是影响SEO流量的最大因素。因此最好要监控搜索量,放入上述公式去。
又如收录,收录100个列表页和收录100个内页可以带来的流量是截然不同的,所以上述公式要页面细分后,才可按照页面类型来分别计算。
一下子就码了很多字,但做起来这些有的好做。说起来容易做起来难,实际都要一段段的代码来实现,至今只码了一小部分。。。
数据统计好了有神马用?比如两栏目对比,收录比率高的那个,必有其原因,只要能分析出来(取决于对搜索引擎原理的理解深度等),就能改善差的那个。
只要数据完善了,随便看些数据就有可以改的地方。但数据完善之路比较艰辛。。
曾经为了统计收录比率,shell脚本几台服务器当中跑抓取量、百度站长平台里面人肉抄索引量、最终Excel表格满屏的数字。尽管找到了些颇有价值的问题,但这种纠结的事情还是让人抓狂。。。
夜息对大型网站如何建立 SEO 体系的看法
从运营角度来说
1、知道网站的产品(服务也是一种产品)并且知道得越多越好;
2、知道网站的用户和他的习惯(搜索引擎也是一类用户;
3、知道自己有多少资源(人员,内容,设计,技术);
4、根据用户的习惯和资源制定优化,填充网站的计划并执行;
从技术的角度来说
1、把一切影响seo的东西数据化;
2、根据数据制定方案并执行;
影响seo的东西绝对不是外链数量或者原创几篇文章可以决定的,至于有多少因素影响seo,就看各个人的思考能力和各个网站自己的情况了。
柳焕斌对大型网站如何建立SEO 体系的看法
大型网站的SEO体系,在很大程度上依托于数据挖掘和分析来进行,99%的工作是在做站内优化。
如何把深度挖掘的数据进行有效的分析,并分配到执行流程中去。
通过分析搜索引擎的关键词数据,我们可以有效规划的网站架构以及内容建设方向。
通过站内搜索的关键词数据分析,我们可以快速上线用户需求内容。
创建一个有效的目标关键词数据库,可以周期性检测关键词排名绩效以及和竞争对手的差距。
数据挖掘分析的工作是持续的,SEO任务的配发基本都来自这个团队。
那接下来是产品上线的流程,这包括一个栏目,专题或者一个页面的发布。涉及的方面如下:
1,标题的撰写规范
2,正文部分行文的审查,基于seo的修正以及内链设置规范
3,发布后,页面与其他的一些页面的关联关系。
这个流程的设置,应找有实战经验的seo来规划,每个阶段的工作进行分解,然后出一份执行规范,让人去高效执行即可。
异常状况的处理,也很重要。
网站改版,宕机,收录异常,流量异常,被误伤惩罚,,,大部分网站都会面对这些突发异常问题,往往关键时刻的决策十分重要,处理方法必须快速,让损失降低到最小。
对外交流与合作
从低层次来说,这多多少少可以促进外链建设。对外的合作和交流,这可以及时了解外围最新的信息,诸如一些信息更新,策略的变化,让团队保持学习。
另外,建立与搜索引擎厂商的交流机制是必要的,尤其是大型网站。